正式推出|Akamai Inference Cloud以NVIDIA技術 將AI從核心伸延至邊緣運作
致力於支持並保護各行各業線上業務的 Akamai Technologies 正式推出 Akamai Inference Cloud 平台,將 AI 推理從核心數據中心,伸延至互聯網邊緣進行,由此重新定義 AI 的應用場景與方式。
與傳統系統不同,Akamai Inference Cloud 這個新平台專為全球提供低延遲、實時邊緣 AI 運作而建構,能夠於互聯網邊緣執行高智能的代理式 AI 推理,讓運算過程可在貼近用戶與相關設備的地點完成。剛推出的 Akamai Inference Cloud 結合了 Akamai 在全球分散式架構方面的專長以及 NVIDIA Blackwell AI 基礎架構,對釋放 AI 真正潛力所需的加速運算,作出了顛覆性的重構與擴展。
從個性化數碼體驗、智能代理,以至實時決策系統等下一代 AI 應用程式,都迫切要求將 AI 推理部署在更靠近用戶的位置,從而在用戶接觸點實現即時互動,並就請求的發送路線作出精明的決策。此外,代理式工作負載日益需要低延遲推理、本地環境感知,以及即時延展全球不同地方的能力。因此,專為推動該變革而打造的 Akamai Inference Cloud 便以一個分散式、生成式邊緣平台,將 NVIDIA AI 技術堆棧部署在更靠近數據生成和決策制定的地點。
Akamai 行政總裁兼聯合創始人 Tom Leighton 博士表示:「互聯網因為靠近用戶,所以成為了今天獲廣泛應用的環球平台;下一波 AI 浪潮同樣需要這種與用戶靠近的距離。Akamai 過去曾成功為互聯網解決這一距離問題,如今我們亦將再次為AI應對這一難題。Akamai Inference Cloud 將憑藉 NVIDIA 的 AI 基礎設施,以分布全球數千個節點的 AI 決策效能,來滿足日益增長的 AI 推理運算力與性能需求,從而實現更快速、更具智能,亦更安全的回應。」
NVIDIA 創始人兼行政總裁黃仁勳指出:「推理早已成為AI應用中運算最密集的環節,而現在各界甚至要求在全球各地進行實時推理。NVIDIA 與 Akamai 攜手將推理能力部署在更接近每一位用戶的地點,從而提供更迅速、延展性更強的生成式 AI,同時釋放新一代智能應用的潛力。」
Akamai Inference Cloud 將 NVIDIA RTX PRO Server (配備 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU、NVIDIA BlueField-3 DPU 和 NVIDIA AI Enterprise 軟件) 與 Akamai 的分散式雲端運算基礎架構,以及擁有超過 4,200 個節點的環球邊緣網絡結合起來,藉著把具智能的代理式 AI 推理伸延到更貼近用戶和相關設備所在的位置,重新定義了 AI 的應用場景和方式。該平台將充分利用如新近發布的 NVIDIA BlueField-4 DPU 等最新 NVIDIA 技術,進一步加速並保護從核心到邊緣的數據存取和 AI 推理工作負載,以實現 Akamai 打造可高度擴展的全球分散式 AI 性能之願景。
Akamai 與 NVIDIA 一起毅然發展 Akamai Inference Cloud,將 AI 推理拓展至全新領域,共同開創 AI 的新篇章:
將企業級 AI 工廠擴展到邊緣,從而賦能智能商務代理並實現個性化數碼體驗:
AI 工廠是強大的動力引擎,負責統籌管理從數據導入到大規模生成智能的整個 AI 生命週期。Akamai Inference Cloud 將 AI 工廠擴展到邊緣,實現數據擷取和處理的去中心化,同時利用 Akamai 數目龐大的分散式邊緣節點,將請求路由至最理想模型。
這將使智能代理能夠即時適應用戶的位置、行為和意圖,並自主地實時完成協商、購買和交易優化。
賦能串流推理和代理,以提供即時金融洞察並作出實時決策:
AI 代理需要執行多重連續推理才能完成複雜的任務,惟這不僅會產生延遲,亦會削弱用戶的參與度。此外,代理式 AI 工作流程需要多次推理調用,但若每次調用都會產生網絡延遲,就會導致體驗出現阻滯,或者因回應過慢而無法滿足機器對機器的延遲要求。
Akamai Inference Cloud 的邊緣原生架構可提供近乎即時的回應,使 AI 代理能夠在多步驟工作流程中以媲美人類的回應速度運行。這在欺詐檢測、加快安全支付速度,以及為工業用邊緣網絡實現高速決策方面非常有用。
使實時實體 AI 能夠以超越人類的回應速度運作:
無人駕駛汽車、工業機械人,以及智慧城市基礎設施等實體AI系統都需要毫秒級精度的決策能力,才可安全地與現實世界進行交互。
Akamai Inference Cloud 旨在令實體 AI 能夠即時處理感應器數據、制定安全決策和協調行動。這有助於將工廠車間、配送無人機,以至手術機械人和無人駕駛交通網絡等等全部變為可與人類進行安全協作、回應迅速的智能系統。
加快價值實現:
跨越多個雲端區域去協調複雜的分散式 AI 工作負載需要專業的技能和團隊。Akamai Inference Cloud 的智能協調層會自動,將 AI 任務路由到最適合的位置——常規推理會在邊緣運用 NVIDIA 旗下 NIM 微服務即時執行,而複雜的推理就會利用集中式的 AI 工廠。
所有這些運作都是透過統一的平台進行管理,從而消除了基礎架構的複雜性問題。
Akamai Inference Cloud 現已推出,首階段覆蓋全球 20 個地區,並計劃進一步擴大部署範圍。欲知詳情,請即瀏覽 https://www.akamai.com/products/akamai-inference-cloud-platform。



